52 research outputs found

    Immersive ExaBrick: Visualizing Large AMR Data in the CAVE

    Get PDF
    Rendering large adaptive mesh refinement (AMR) data in real-time in virtual reality (VR) environments is a complex challenge that demands sophisticated techniques and tools. The proposed solution harnesses the ExaBrick framework and integrates it as a plugin in COVISE, a robust visualization system equipped with the VR-centric OpenCOVER render module. This setup enables direct navigation and interaction within the rendered volume in a VR environment. The user interface incorporates rendering options and functions, ensuring a smooth and interactive experience. We show that high-quality volume rendering of AMR data in VR environments at interactive rates is possible using GPUs

    A Case for Data Centre Traffic Management on Software Programmable Ethernet Switches

    Full text link
    Virtualisation first and cloud computing later has led to a consolidation of workload in data centres that also comprises latency-sensitive application domains such as High Performance Computing and telecommunication. These types of applications require strict latency guarantees to maintain their Quality of Service. In virtualised environments with their churn, this demands for adaptability and flexibility to satisfy. At the same time, the mere scale of the infrastructures favours commodity (Ethernet) over specialised (Infiniband) hardware. For that purpose, this paper introduces a novel traffic management algorithm that combines Rate-limited Strict Priority and Deficit round-robin for latency-aware and fair scheduling respectively. In addition, we present an implementation of this algorithm on the bmv2 P4 software switch by evaluating it against standard priority-based and best-effort scheduling.Comment: 8th IEEE International Conference on Cloud Networking (IEEE CloudNet 2019

    A Hierarchical Scheduling Model for Dynamic Soft-Realtime System

    Get PDF
    We present a new hierarchical approximation and scheduling approach for applications and tasks with multiple modes on a single processor. Our model allows for a temporal and spatial distribution of the feasibility problem for a variable set of tasks with non-deterministic and fluctuating costs at runtime. In case of overloads an optimal degradation strategy selects one of several application modes or even temporarily deactivates applications. Hence, transient and permanent bottlenecks can be overcome with an optimal system quality, which is dynamically decided. This paper gives the first comprehensive and complete overview of all aspects of our research, including a novel CBS concept to confine entire applications, an evaluation of our system by using a video-on-demand application, an outline for adding further resource dimension, and aspects of our protoype implementation based on RTSJ

    Unified Container Environments for Scientific Cluster Scenarios

    Get PDF
    Providing runtime dependencies for computational workflows in shared environments, like HPC clusters, requires appropriate management efforts from users and administrators. Users of a cluster define the software stack required for a workflow to execute successfully, while administrators maintain the mechanisms to offer libraries and applications in different versions and combinations for the users to have maximum flexibility. The Environment Modules system is the tool of choice on bwForCluster BinAC for this purpose. In this paper, we present a solution to execute a workflow which relies on a software stack not available via Environment Modules on BinAC. The paper describes the usage of a containerized, user-defined software stack for this particular problem using the Singularity and Docker container platforms. Additionally, we present a solution for the reproducible provisioning of identical software stacks across HPC and non-HPC environments. The approach uses a Docker image as the basis for a Singularity container. This allows users to define arbitrary software stacks giving them the ability to execute their workflows across different environments, from local workstations to HPC clusters. This approach provides identical versions of software and libraries across all environments

    SARA-Service: Langzeitverfügbarkeit und Publikation von Softwareartefakten

    Get PDF
    Das SARA-Projekt (Software Archiving of Research Artefacts) hat das Ziel, einen neuen wissenschaftlichen Dienst zu entwickeln, mit dem Forschungsdaten und Software langfristig verfügbar gemacht und publiziert werden können. Die Posterpräsentation stellt Motivation, Zielsetzung sowie wichtige Kernelemente des SARA-Service vor. Im Zentrum der Darstellung steht der SARA-Service, der auf Git und den dort bereitgestellten Mechanismus zur Softwareversionierung aufbaut. Hierbei fungiert ein durch die Universität Konstanz bereitgestellter und zukünftig als Landesdienst betriebener GitLab-Server als Langzeitarchiv. Nutzer können hier ihre jeweiligen Versionsstände der Software zentral speichern. Die archivierten Versionen können mit dem SARA-Service zusätzlich in einem DSpace-Repositorium veröffentlicht werden. Der neue Service soll nach Ablauf der Evaluierungsphase grundsätzlich allen Fachdisziplinen zur Verfügung stehen

    SARA: Open Source Projekt zur langfristigen Verfügbarkeit und Zitierbarkeit von Software

    Get PDF
    Software spielt in vielen Disziplinen eine wichtige Rolle im Forschungsprozess – entweder zur Erfassung, Verarbeitung und Analyse von Forschungsdaten, oder die Software ist selbst Gegenstand der Forschung. Damit Forschungsergebnisse später nachvollziehbar sind, sollte die Software langfristig verfügbar und referenzierbar gemacht werden. Mit SARA gibt es einen Webservice, der die Archivierung und Veröffentlichung von Software aus GitHub und GitLab-Instanzen auf einfache Weise ermöglicht. Dabei stehen die langfristige Verfügbarkeit der Software und ihre Zitierbarkeit über die Veröffentlichung in einem institutionellen Repositorium im Vordergrund. Der SARA Webservice bietet WissenschaftlerInnen darüber hinaus zahlreiche hilfreiche Funktionen rund um diesen Vorgang, z.B. die Möglichkeit, die Entwicklungshistorie ganz oder teilweise mitzuveröffentlichen und für Dritte zur Online-Exploration anzubieten. Der Quellcode des SARA Webservice steht unter einer freien Lizenz. Infrastruktureinrichtungen können eine eigene SARA-Instanz aufsetzen oder gemeinsam mit anderen Einrichtungen eine Instanz nutzen. Projektwebseite: https://sara-service.or

    CiTAR – Citing and Archiving Research

    Get PDF
    While the institutional introduction of infrastructure for the collection and conservation of primary scientific data is currently under construction or already exists, a parallel problem awareness arises for the associated models and methods, in particular for data evaluation. However, there is hardly any usable infrastructure and service offerings yet. Although the DFG recommendations on "good scientific practice" currently only recommend the retention of primary scientific data, the remainder of the recommendation refers to mandatory records of "materials and methods" that are not only necessary for comprehensible results but also for the publication process. If scientific results are to be reproducible, for example for an independent verification, a reconstruction of the experimental setup is necessary. However, in the digital age, with its extremely short life span (and availability) of hardware and software components, replicating a data processing process that is identical in all components can not be achieved solely on the basis of records. CiTAR (Citing and Archiving Research), a three-year Baden-Württemberg state project, develops infrastructure to support computer assisted research. One major outcome of this project are means to publish, cite and provide long-term access to virtual research environments. The aim of this project is to develop a cooperative, multidisciplinary technical-organizational service in order to support teaching and research in the further development of "good scientific practice". The service should provide data and scientific methods jointly citable and reproducibly in order to meet the requirements of modern journals. CiTAR realizes re-use of research data and long-term availability in terms of a modern research data management. To achieve the project objectives, three of the four bwFor HPC operators have joined forces to prototype a broader scope in the natural sciences, especially the computational and data-intensive scientific disciplines. The developed service provides automated import of virtual machines and popular container formats like Docker and Singularity. CiTAR assigns persistent identifiers to the imported research environments and provides ressources to re-run the archived objects with external data

    Umsetzungskonzept der Universitäten des Landes Baden-Württemberg für das High Performance Computing (HPC), Data Intensive Computing (DIC) und Large Scale Scientific Data Management (LS² DM)

    Get PDF
    Computational Sciences1 und damit die HPC-Systeme als ihr technisches Fundament gewinnen unablässig an Bedeutung, wie auch der Wissenschaftsrat in seinen jüngsten Empfehlungen zur „Finanzierung des Nationalen Hoch- und Höchstleistungsrechnens in Deutschland“2 betont. Die fortschreitende Digitalisierung der Wissenschaft generiert auf Basis verschiedener Forschungs- infrastrukturen Forschungsdaten und damit Anforderungen, die von der schnellen Speicherung bei der Datenerhebung, über die Verarbeitung in HPC- und Cloudsystemen bis hin zur notwen- digen Aufarbeitung der Daten im Sinne „guter wissenschaftlicher Praxis“ reichen. Die Analyse dieser großen Datenmengen zur Gewinnung von neuen Erkenntnissen wird Data Intensive Computing (DIC) genannt – sie wird heute neben Theorie, Experiment und Simulation als vierte Säule der Wissenschaft3 bezeichnet. Hinzu kommen die notwendigen technischen und organi- satorischen Maßnahmen für eine nachhaltige Nutzung der Daten, die eine langfristige Speiche- rung und eine nach Möglichkeit öffentliche Zugänglichkeit garantieren. Der Erkenntnis folgend, dass diese neuen Anforderungen nicht mehr sinnvoll von einzelnen Universitäten oder Forschungsinstitutionen bedient werden können, koordinieren die wissen- schaftlichen Rechenzentren des Landes Baden-Württemberg ihre Aktivitäten diesbezüglich. Gleichzeitig wollen die Landesuniversitäten den Empfehlungen des Rats für Informationsinfra- strukturen (RfII) folgen und ihre Infrastrukturentwicklungen mit dem Aufbau einer Infrastruk- tur für Forschungsdatenmanagement auf Basis ihrer HPC- und DATA-Konzepte verschränken. Kooperative Lösungen helfen die beschriebenen Herausforderungen zu bewältigen und verspre- chen einen institutionen- und disziplinübergreifenden Mehrwert. Für die Periode von 2018 bis 2024 ist es das Ziel aller beteiligten Akteure, den beschrittenen Weg der Kooperation gemäß der HPC Landesstrategie4 weiter zu verfolgen. Damit baut das Land Ba- den-Württemberg ein wesentliches Alleinstellungsmerkmal bei der Unterstützung der Wissen- schaften aus und bekundet ausdrücklich das Interesse und die Bereitschaft, in einer frühen Phase beim Aufbau und der Entwicklung der Nationalen Forschungsdateninfrastruktur (NFDI)5 mitzuwirken. Im Sinne eines integrierten Ansatzes werden die bestehenden Konzepte für HPC, DIC und LS2DM weiterentwickelt und in einer gemeinsamen Strategie zusammengeführt. Gleichzeitig werden die Grundlagen für eine frühe Beteiligung am Aufbau einer NFDI geschaffen und erforderliche Infrastrukturen bereitgestellt

    Rahmenkonzept der Universitäten des Landes Baden-Württemberg für das High-Performance Computing (HPC) und Data-Intensive Computing (DIC) für den Zeitraum 2025 bis 2032

    Get PDF
    Digitale Infrastrukturen und darauf aufsetzende Dienste bilden inzwischen in fast allen Fachgebieten das Rückgrat wissenschaftlicher Forschung. Deshalb muss die strategische Zielsetzung eines HPCKonzepts klare Antworten auf eine Vielzahl von Problemstellungen finden. Dazu zählen die stetige Zunahme digitaler Workflows, bedingt beispielsweise durch die Verbesserung des Instrumentariums in den Naturwissenschaften, neue Forschungsansätze in den Digital Humanities, die Verfeinerung der Auflösung in bildgebenden Verfahren, aber auch der zunehmende Einsatz Künstlicher Intelligenz in immer breiteren Anwendungsfeldern. Öffentlich geförderte und betriebene Forschungsinfrastrukturen sind hier von entscheidender Bedeutung. Föderierte Strukturen erzeugen Synergien und haben klare strategische Vorteile gegenüber vereinzelten Insellösungen, insbesondere im Bereich High-Performance-Computing/Data Intensive Computing (HPC-DIC). Daher müssen sie im Interesse der Nutzenden auf der lange etablierten Basis verlässlich, zukunftssicher und nachhaltig weiterentwickelt werden. Im Sinne des Wissenschafts- und Wirtschaftsstandorts Baden-Württemberg sollen sie eine für Menschen gemachte Digitalisierung voranbringen, moderne technische Entwicklungen mitgestalten, zusätzliche Kreativität freisetzen, und nicht zuletzt die breite Verteilung von Kompetenzen unterstützen. Basierend auf internationalen Standards sind digitale Dienste auf allen Ebenen (lokal, regional, national und international) geeignet zu vernetzen. Um den Standort Baden-Württemberg weiter attraktiv für Forscher, Entwickler und Dienstleister auszubauen, ist dies eine unverzichtbare Voraussetzung. Die Hochschulen im Land müssen sich im Hinblick auf die Anwerbung von IT-Fachkräften zu einem begehrten Arbeitgeber weiterentwickeln
    corecore